ChatGPT: ящик Пандоры или путь в светлое будущее?


Словосочетания «нейронные сети», «машинное обучение» звучат всё чаще, а тема применения искусственного интеллекта (ИИ) в отношении научных исследований находится в стадии активного обсуждения. Одни говорят, что развитие ИИ может привести к четвёртой промышленной революции, что, в свою очередь, изменит жизнь до неузнаваемости, другие ставят под сомнение это утверждение. Некоторые эксперты полагают, что предел развития нейросетей практически достигнут, а по мнению оппонентов, их масштабирование будет способствовать формированию более умных моделей, например в направлении персонализации. При этом никто не сомневается, что использование СhatGPT затронет многие виды деятельности, по крайней мере 10% задач, которые выполняют представители 80% профессий.

Сильные и слабые стороны внедрения инструментов генеративных технологий, степень их влияния на деятельность в сфере науки, образования, культуры и креативных индустрий обсудили эксперты в ходе специального баттла¹.


¹ Дискуссия состоялась в рамках XXI Всероссийской научно-практической конференции «Корпоративные библиотечные системы: технологии и инновации» («КорФор»).

В роли оппонентов выступили исполнительный директор компании «Антиплагиат» Юрий ЧЕХОВИЧ и заведующий научно-исследовательской лабораторией нейросетевых технологий и искусственного интеллекта Санкт-Петербургского политехнического университета Петра Великого Лев УТКИН.

Как произошёл ваш первый контакт с ChatGPT или с другими современными генеративными моделями? Что это для вас: результат эволюции или революционный прорыв? Возможность или угроза?

Юрий ЧЕХОВИЧ:

— Моё знакомство с генеративными моделями и вообще с тем, что текст можно создавать искусственно, случилось ещё лет 10 назад. Кандидатам, которых отбирали в штат компании «Антиплагиат», в качестве тестового задания мы предлагали написать генератор текста. Конечно, это были более простые инструменты, чем ChatGPT.

Безусловно, всё развивается, а ChatGPT возник не на пустом месте: это процесс эволюционный. Другое дело, что сейчас он развивается такими темпами, которые кого-то радуют, но многих пугают, по крайней мере оставляют с ощущением неопределённого будущего. Риски связаны в том числе с тем, что почти никто не представляет, когда экспоненциальная кривая перейдёт в пологое движение. Моя позиция в том, что следует очень аккуратно подходить к использованию подобных технологий.

Лев УТКИН:

— ИИ проходил несколько стадий, случился ряд ИТ-революций, которые мы объективно не заметили, поскольку они происходили в технологической сфере. Например, в 2012 г. были созданы свёрточные сети, которые в дальнейшем открыли целый пласт новых исследований и приложений, связанных с распознаванием образов, автопилотами и т.д. Было разработано много языковых, генеративных (порождающих) моделей. Это так называемый вариационный автокодер, диффузионные модели. ChatGPT — продолжение генеративных моделей, но только в области языка.

Если говорить о революционности момента, то он сродни созданию Интернета. Это движение открывает двери для новых идей и возможностей человека. Но ИИ не что-то сверхъестественное и божественное, как многие полагают. Это далеко не естественный интеллект, а лишь статистическое обучение. 30 лет назад процесс так и назывался: теория статистического обучения. Уже позже для красного словца использовали термин «машинное обучение», с той же целью появилось словосочетание «искусственный интеллект». Но у таких моделей нет интуиции, озарения и других качеств, свойственных человеку. Калькулятор заменил логарифмическую линейку. Хотя и это революция в определённом смысле, но мы не говорим, что калькулятор — что-то опасное. С моей точки зрения, ChatGPT и новые языковые модели — огромный прогресс, новый технологический прорыв, потрясающие возможности.

Сегодня активно обсуждается тема ChatGPT в науке. Очевидно, что технологию можно использовать для аннотирования, реферирования, создания черновиков, рецензирования. Эти возможности экономят время человека, вносят разнообразие в работу. Есть исследования, показывающие, что СhatGPT уже умеет заходить в Интернет, собирать там сведения, относящиеся к теме исследования, писать программный код и обращаться к IP лабораторного оборудования. Но важно понимать, что исследования, выполненные с помощью ChatGPT, могут содержать ложную информацию. Какие задачи, на ваш взгляд, можно поручить в этой области ИИ?

Лев УТКИН:

— Я постоянно сталкиваюсь с тем, что на обычную публикацию в зарубежном журнале приходится тратить очень много времени. Для того чтобы опубликовать статью, надо написать введение, сделать обзор, подготовить разделы, библиографию, которые уже существуют в других моих работах. Приходится излагать материал другими словами, причём на английском языке. При этом сама идея, которая должна быть изложена, занимает одну-две страницы. Остальные 40 страниц надо писать каждый раз по-новому, ограничивая своё время для реальных исследований, чтения других статей и т.д. Я попробовал использовать ChatGPT, он в сотни раз сокращает время, которое я трачу на то, чтобы обеспечить соответствие формальным требованиям к публикациям. ChatGPT, конечно, выдаёт и ошибочную информацию. С этой проблемой надо как-то бороться — как и с автомобилем, для которого мы создали правила дорожного движения, ограничили скорость и список тех, кто может его водить.

Юрий ЧЕХОВИЧ:

— Конечно, новые инструменты дают новые возможности, но, на мой взгляд, здесь есть две проблемы. Первая связана с тем, что практически никто не понимает границ этих возможностей. Всех завораживает слово «интеллект», и многие думают, что одним кликом можно получить научную статью, диплом, какую-то иную работу. Впечатление, когда смотришь на результат, — это выглядит очень солидно и вызывает доверие. И, только хорошо разбираясь в предмете, понимаешь, что есть проблема с фактами. Полагаю, что за счёт широкого использования генеративных моделей будет постепенно вымываться культура проверки фактов и верификации контента: верить станут тому, что написано, потому что это выглядит надёжно. Проблема как раз в границе между ожиданиями и реальностью.

Второй момент связан с очеловечиванием ИИ: «думает», «чувствует», «знает», «предлагает», «предполагает»… Так часто говорят, рассуждая про нейросети. Но по сути, это программа, алгоритм, конечная последовательность операций, на выходе которой появляется текст. Ощущение того, что ИИ думает и является равноправным партнёром при создании статьи, ложное. Сейчас есть статьи, в которых ChatGPT указан в качестве соавтора. Но это же нонсенс! Давайте укажем MS Word, Windows, просто компьютер, печатную машинку. Это одна из серьёзных проблем при использовании генеративных моделей в научных исследованиях.

ChatGPT: ящик Пандоры или путь в светлое будущее?

Какие компетенции и умения должны остаться за исследователем-человеком?

Юрий ЧЕХОВИЧ:

— Я не противник ChatGPT и нейросетевых моделей. Создан прекрасный инструмент, который можно использовать. Более того, все, кто захочет работать в науке и образовании, должны будут его применять, как сейчас — компьютер. Но следует понимать, что за человеком остаётся ответственность за результат. Поэтому проверка фактов, генерация идей — дело человека. Иногда бывает, что ChatGPT подсказывает классные идеи, но их должен оценивать учёный. Роль человека — творческие задачи, оценка, управление результатами. ChatGPT не умеет генерировать новые знания, по крайней мере в том виде, в котором человек способен их оценить. Вполне возможно, что массовое использование нейросетевых моделей приведёт к тому, что студентам негде будет учиться, получать навыки сложной творческой работы.

Лев УТКИН:

— Конечно, человек должен присутствовать и контролировать процесс. Но я в жизни сталкиваюсь с другими примерами. 40 лет назад, когда мы сдавали анализ крови, был целый штат лаборантов, которые подсчитывали число кровяных телец, вооружившись микроскопами. Сейчас через минуту вы уже получаете распечатку анализа, осуществлённого без участия человека. При этом вы не задумываетесь о том, что анализ был сделан автоматически, вероятно нейронной сетью. Тем не менее вы верите этим данным. Я занимался диагностикой онкологических заболеваний с точки зрения разработки нейросетевых моделей. У медиков позиция такая, что врач в роли диагноста никуда не денется. Я не верю в это. Да, на каком-то этапе человек будет присутствовать рядом с ИИ, тем не менее через определённое время он начнёт заниматься другими вопросами: психологией, выбором оптимального лечения, хотя и здесь появляются методы ИИ.

ChatGPT и другие модели — эффективные помощники человека. Имеются риски, но за учёным остаётся интуиция, озарение. А главное, с моей точки зрения, постановка целей. Ни в коем случае эту задачу нельзя передавать ИИ, иначе могут возникнуть ложные цели. Целеполагание должно жёстко регулироваться.

Какие стандарты качества должны предъявляться к ИИ, кто и как будет контролировать их соблюдение?

Лев УТКИН:

— Мысль о том, что ИИ — нечто одушевлённое, сегодня не уходит из общественного сознания. На самом деле это инструмент, решающий ограниченный круг задач. Любая нейронная сеть — вероятностная модель, на вход которой подаются какие-то объекты: картинки, предложения, тексты, а на выходе каждый получает что-то своё. Функция очень сложна, но это машина, и ничего сверхъестественного там нет. Тем не менее его надо регулировать и контролировать. Например, в Италии запретили использовать ChatGPT, но поможет ли это? Можно запретить производить электромобили, но на них перейдёт весь мир, а мы продолжим коптить небо. Да, какие-то страны ограничивают развитие, но, например, Китай не смотрит на ограничения, его цель — двигаться вперёд. ИИ — будущее экономики, технологический прогресс. Регулирование должно быть, особенно в языковых моделях. Но в целом ограничение моделей ИИ может привести только к экономической деградации.

Юрий ЧЕХОВИЧ:

— Регулирование в части ограничений — это или большая глупость, или хайп. На уровне стран скорее глупость, поскольку отбрасывает их назад в отношении науки и технологий, что ни к чему хорошему не приведёт. Это не выход и не метод. Однако механизмы регулирования уже появляются. Например, есть требование при публикации научных статей обязательно указывать весь инструментарий ИИ, который использовался: генерацию изображений, перевод, обработку данных. В частности, Международная ассоциация редакторов медицинских журналов приняла такое требование. Второй важный момент — недопустимость указывать нейромодели в качестве соавторов. Это только начало.

Как изменятся образовательный процесс и методы обучения? В чём здесь потенциал и угрозы? Какие требования будут применяться к студенту и преподавателю?

Юрий ЧЕХОВИЧ:

— Образование уже не будет таким, как прежде. Скорее всего, доступный сегодня инструментарий останется. Сейчас «Антиплагиат» умеет распознавать тексты, созданные машинами, и в мире возникло ещё несколько десятков подобных сервисов. Но необходимо думать над тем, как менять процесс работы со студентами, чтобы органично отделять творческий вклад человека от вклада машины. В каком-то смысле проблема является продолжением другой. Научно-образовательное сообщество не очень чётко умеет отделять вклад одного человека от вклада другого. Мировой рынок написания работ на заказ — десятки миллиардов долларов в год, и в пандемию он вырос в разы. Сейчас Индия, Нигерия, Кения, Индонезия пишут работы для студентов во всём мире. Вопрос даже не в том, чтобы отделить студента от ChatGPT, а в том, чтобы отделить его от автора, который работает в Индии.

Вариант, когда студент в начале семестра получил задание, а в конце принёс результат, — нонсенс. Процесс должен выстраиваться таким образом, чтобы преподаватель или научный руководитель видел этапы, всю работу непосредственно. Есть и другие методы контроля. Например, один американский профессор вычищает из присланного текста некоторое количество слов и просит студента заполнить пропуски. Если справляется органично, значит, он с текстом знаком. Если испытывает трудности, он его не писал.

Лев УТКИН:

— Говоря о проблемах образования, мы всё время исходим из нашего текущего уровня представлений о нём. Я нередко слышу о том, что ChatGPT станет отуплять школьников и студентов: им не надо писать будет сочинения, рефераты. Соглашусь с этим исходя из сегодняшних позиций. Когда-то мы пользовались логарифмической линейкой, для того чтобы сделать сложные вычисления. Потом появились калькуляторы, которые просто сократили время на вычисления. Важно обращать внимание на смысл того, что делается. Вспомните, как мы писали лекции от руки, а потом стали пользоваться готовыми материалами. Конечно, когда мы пишем, то лучше запоминаем. Но надо ли тратить на это время?

Я не хочу сказать, что ChatGPT — это только позитив. Безусловно, на начальном этапе будут отрицательные моменты, и я не завидую студентам, которые одной ногой находятся в прошлом, а другой — в будущем. Но ИИ позволяет по-другому взглянуть на образовательный процесс. Мы много говорим об индивидуальных траекториях, о том, что на каждого студента необходимо ориентировать специальные курсы. Тем не менее для этого объективно ничего не делается, и большинство не понимает, что такое индивидуализация обучения. А это задача, аналогичная выбору оптимального лечения, или персонализированная медицина.

В образовательном процессе потребуется создавать системы ИИ, которые будут позволять выбирать оптимальные для каждого студента пути, учитывая его школьную подготовку, баллы по ЕГЭ, интересы. ИИ позволит это сделать. Мы находимся на пороге кардинальных изменений в образовании.

Что изменится в библиотеках? ИИ уже сейчас может помочь в поиске по каталогу, подборе литературы, управлении фондами, книжных рекомендациях? Каково библиотечное завтра вместе с ChatGPT?

Лев УТКИН:

— Библиотека будущего — это место, где станут обучать тому, как пользоваться современными генеративными системами в самом широком смысле, верифицировать получаемую информацию, куда обращаться, чтобы найти достоверный контент, помогать пользователю что-то отсеивать и что-то принимать.

Юрий ЧЕХОВИЧ:

— Очевидно, что технологиями генерации текста будут пользоваться очень активно. Рост взрывной, он не остановится, и люди массово станут меньше писать, что называется, руками. Соответственно потребность в чтении тоже будет уходить. Чтобы писать научные статьи, надо их читать. То же самое касается любых текстов. Невозможно научиться писать, не читая. Конечно, это произойдёт не завтра и не послезавтра. Уверен, что библиотека как институт, который за два-три десятка лет проявил потрясающую гибкость в принятии новых технологий и адаптации к ним, станет учить пользователей формировать стратегию запросов. Но в какой-то момент читатели сами этому научатся, а потребность в чтении снизится. Надеюсь, что регулирование в образовании и в науке позволит сохранить место библиотеки и чтения в нашей жизни.

Технический прогресс происходит быстрее, чем общество и государство могут реагировать на него. В связи с этим появляется желание его затормозить, чтобы подготовиться и адаптироваться. Но «ящик Пандоры» уже приоткрыт, и остановить прогресс не получится. Даже если заморозить открытое развитие ИИ, он может продолжить развиваться скрытно и нелегально.

Помимо опасности ИИ также представляет и большую ценность, поскольку может помочь решить немало сложных задач, перенаправить потенциал людей, взяв на себя часть их деятельности, и вывести человечество на новый уровень развития. Поэтому важно исследовать ИИ в отношении безопасности, минимизации возможных угроз, рисков и их последствий. Следует понимать, что ИИ — это лишь ещё один инструмент в руках человека и то, как мы будем его использовать, зависит только от нас самих.

Фото: официальный Telegram-канал «КорФор-2023».


Рубрика: Инновационные технологии

Год: 2023

Месяц: Сентябрь

Теги: ChatGPT Нейросети Искусственный интеллект (ИИ) Юрий Чехович Лев Уткин